视网膜成像数据中解剖特征的自动检测和定位与许多方面有关。在这项工作中,我们遵循一种以数据为中心的方法,以优化分类器训练,用于视神经层析成像中的视神经头部检测和定位。我们研究了域知识驱动空间复杂性降低对所得视神经头部分割和定位性能的影响。我们提出了一种机器学习方法,用于分割2D的视神经头3D广场扫描源光源光学相干断层扫描扫描,该扫描能够自动评估大量数据。对视网膜的手动注释2D EN的评估表明,当基础像素级分类任务通过域知识在空间上放松时,标准U-NET的训练可以改善视神经头部细分和定位性能。
translated by 谷歌翻译
Planet formation is a multi-scale process in which the coagulation of $\mathrm{\mu m}$-sized dust grains in protoplanetary disks is strongly influenced by the hydrodynamic processes on scales of astronomical units ($\approx 1.5\times 10^8 \,\mathrm{km}$). Studies are therefore dependent on subgrid models to emulate the micro physics of dust coagulation on top of a large scale hydrodynamic simulation. Numerical simulations which include the relevant physical effects are complex and computationally expensive. Here, we present a fast and accurate learned effective model for dust coagulation, trained on data from high resolution numerical coagulation simulations. Our model captures details of the dust coagulation process that were so far not tractable with other dust coagulation prescriptions with similar computational efficiency.
translated by 谷歌翻译
已经开发了许多本体论,即描述逻辑(DL)知识库,以提供有关各个领域的丰富知识,并且其中许多基于ALC,即原型和表达的DL或其扩展。探索ALC本体论的主要任务是计算语义范围。符号方法可以保证声音和完整的语义需要,但对不一致和缺失信息敏感。为此,我们提出了一个模糊的ALC本体神经推理器Falcon。 Falcon使用模糊逻辑运算符为任意ALC本体论生成单个模型结构,并使用多个模型结构来计算语义索引。理论结果表明,保证猎鹰是计算ALC本体学语义索引的声音和完整算法。实验结果表明,Falcon不仅可以近似推理(不完整的本体理由)和chanseansissist的推理(因本体不一致的推理),还可以通过结合ALC本体的背景知识来改善生物医学领域的机器学习。
translated by 谷歌翻译
机器学习的最后十年的规模和能力大幅增加,深层神经网络(DNN)越来越多地在各种领域中部署。但是,DNN的内部运作通常很难理解,这引起了人们对使用这些系统的安全性的担忧,而无需严格了解它们的功能。在这项调查中,我们回顾了有关解释DNN内部组成部分的技术的文献,我们称之为“内部”可解释性方法。具体而言,我们审查了解释权重,神经元,子网和潜在表示的方法,重点是这些技术如何与设计更安全,更值得信赖的AI系统的目标相关联。我们还强调了可解释性与工作之间的联系,对抗性鲁棒性,持续学习,网络压缩以及研究人类视觉系统。最后,我们讨论了关键的挑战,并争辩说未来的工作,以解释性为AI安全性,重点放在诊断,基准测试和鲁棒性上。
translated by 谷歌翻译
TensorFlow和Pytorch之类的软件包旨在支持线性代数操作,它们的速度和可用性决定了它们的成功。但是,通过优先考虑速度,他们经常忽略内存需求。结果,由于内存溢出,在软件设计方面方便的内存密集型算法的实现通常无法解决大问题。记忆效率的解决方案需要在计算框架之外具有重要逻辑的复杂编程方法。这会损害这种算法的采用和使用。为了解决这个问题,我们开发了一个XLA编译器扩展程序,该扩展程序根据用户指定的内存限制来调整算法的计算数据流表示。我们表明,K-Nearest邻居和稀疏的高斯过程回归方法可以在单个设备上以更大的规模运行,而标准实现将失败。我们的方法可以更好地利用硬件资源。我们认为,进一步专注于在编译器级别上删除内存约束将扩大未来可以开发的机器学习方法的范围。
translated by 谷歌翻译
如今,跨行业的挑战包括减少温室气体排放和实现循环经济。但是,废纸生产纸仍然是一项高度资源密集的任务,尤其是在能源消耗方面。虽然纸机产生了大量数据,但我们已经确定了缺乏利用率,并使用操作员辅助系统和最先进的机器学习技术实施了一个概念,例如分类,预测和警报洪水处理算法,支持日常操作员任务。我们的主要目的是为使用可用数据的机器运营商提供特定情况知识。我们预计这将导致更好的调整参数,因此造纸机的足迹较低。
translated by 谷歌翻译
图像组成有助于研究图像结构,并有助于发现跨艺术形式和样式描绘的基础场景的语义。近年来,随着艺术品的数字化,可能会将成千上万个特定场景或叙述的图像联系在一起。但是,将这些数据与一致的客观性联系起来可能是一项高度挑战和耗时的任务。在这项工作中,我们提出了一种称为图像组成画布(ICC ++)的新方法,以比较和检索具有相似组成元素的图像。 ICC ++是对ICC的改进,专门针对由Max Imdahl的工作激发的低水平和高级功能(组成元素)。为此,我们与传统和最先进的方法(SOTA)方法进行了严格的定量和定性比较,表明我们所提出的方法优于所有这些方法。结合深度功能,我们的方法优于最佳的基于深度学习的方法,为数字人文学科的可解释机器学习打开了研究方向。我们将发布代码和数据后的数据。
translated by 谷歌翻译
消费品的生产,运输,使用和处置对温室气体排放和资源耗竭有重大影响。现代零售平台在很大程度上依赖机器学习(ML)来搜索和推荐系统。因此,ML可以通过考虑产品搜索或建议中的可持续性方面来实施更可持续的消费模式的努力。但是,利用ML的潜力达到可持续性目标需要有关可持续性的数据。不幸的是,没有开放且公开可用的数据库可以按产品基础集成可持续性信息。在这项工作中,我们提出了填补这一空白的GreendB。根据数百万用户的搜索日志,我们优先考虑哪些产品用户最关心的是最关心的。 GreendB架构扩展了著名的schema.org产品定义,并且可以轻松地集成到现有的产品目录中,以改善可用于搜索和建议体验的可持续性信息。我们介绍了创建GREENDB数据集的刮擦系统的概念证明。
translated by 谷歌翻译
生成网络正在LHC的快速事件生成中打开新的途径。我们展示了生成的流量网络如何达到运动分布的百分比精度,如何与鉴别器共同培训,以及该鉴别者如何提高生成。我们的联合培训依赖于两种网络的新耦合,这些网络不需要纳什均衡。然后,我们通过贝叶斯网络设置和通过条件数据增强来估计生成的不确定性,而鉴别者确保与培训数据相比没有系统不一致。
translated by 谷歌翻译
Language use changes over time, and this impacts the effectiveness of NLP systems. This phenomenon is even more prevalent in social media data during crisis events where meaning and frequency of word usage may change over the course of days. Contextual language models fail to adapt temporally, emphasizing the need for temporal adaptation in models which need to be deployed over an extended period of time. While existing approaches consider data spanning large periods of time (from years to decades), shorter time spans are critical for crisis data. We quantify temporal degradation for this scenario and propose methods to cope with performance loss by leveraging techniques from domain adaptation. To the best of our knowledge, this is the first effort to explore effects of rapid language change driven by adversarial adaptations, particularly during natural and human-induced disasters. Through extensive experimentation on diverse crisis datasets, we analyze under what conditions our approaches outperform strong baselines while highlighting the current limitations of temporal adaptation methods in scenarios where access to unlabeled data is scarce.
translated by 谷歌翻译